Световни новини без цензура!
Материали за сексуално насилие над деца, генерирани от изкуствен интелект, може да затрупат Tip Line
Снимка: nytimes.com
New York Times | 2024-04-22 | 16:37:20

Материали за сексуално насилие над деца, генерирани от изкуствен интелект, може да затрупат Tip Line

Нов поток от материали за полово принуждение над деца, основани от изкуствен интелект, заплашва да затрупа управляващите, които към този момент са арестувани от остарелите технологии и закони, съгласно нов отчет, оповестен в понеделник от Интернет обсерваторията на Станфордския университет.

През последната година новият ИИ. технологиите улесниха нарушителите да основават очевидни изображения на деца. Сега откривателите от Станфорд предизвестяват, че Националният център за изчезнали и експлоатирани деца, организация с нестопанска цел, която работи като централна координираща организация и получава по-голямата част от финансирането си от федералното държавно управление, няма ресурсите да се бори с възходящата опасност.

CyberTipline на организацията, основана през 1998 година, е федералната клирингова къща за всички отчети за материали за полово малтретиране на деца или CSAM онлайн и се употребява от правоприлагащите органи за следствие на закононарушения. Но доста от получените препоръки са непълни или изпълнени с грешки. Неговият дребен личен състав също се бори да поддържа размера.

„ Почти несъмнено през идните години CyberTipline ще бъде наводнен с извънредно реалистично изглеждащ ИИ. наличие, което ще направи още по-трудно за правоприлагащите органи да разпознават същински деца, които би трябвало да бъдат избавени “, сподели Шелби Гросман, един от създателите на отчета., някои законодатели подхващат дейности, с цел да подсигуряват, че такова наличие се смята за нелегално.

Генерираните от изкуствен интелект изображения на CSAM са противозаконни, в случай че съдържат същински деца или в случай че се употребяват изображения на действителни деца за образование на данни, споделят откривателите. Но синтетично направените, които не съдържат действителни изображения, могат да бъдат предпазени като независимост на словото, съгласно един от създателите на отчета.

Обществено отвращение от разпространяването на онлайн изображения на полово принуждение броя на децата експлодира при скорошно чуване с основните изпълнителни шефове на Meta, Snap, TikTok, Discord и X, които бяха укорени от законодателите, че не вършат задоволително, с цел да защитят дребните деца онлайн.

Центърът за изчезнали и експлоатирани деца, който събира препоръки от лица и компании като Фейсбук и Гугъл, се застъпи за законодателство, което да усили финансирането му и да му даде достъп до повече технологии. Изследователи от Станфорд споделиха, че организацията е предоставила достъп до изявленията на чиновници и нейните системи за отчета, с цел да покаже уязвимостите на системите, които се нуждаят от актуализиране.

„ През годините сложността на отчетите и тежестта на закононарушенията против деца не престават да се развиват “, се споделя в изказване на организацията. „ Следователно, потреблението на нововъзникващи софтуерни решения в целия развой на CyberTipline води до отбрана на повече деца и заблуждение под отговорност на нарушителите. “

Изследователите от Станфорд откриха, че организацията би трябвало да се промени метода, по който работи линията на съвета, с цел да подсигурява, че правоприлагащите органи могат да дефинират кои отчети включват наличие, генерирано от изкуствен интелект, както и да подсигурява, че фирмите, докладващи за евентуални материали за корист на своите платформи, попълнят формулярите напълно.

По-малко от половината от всички отчети, подадени до CyberTipline, са били „ настоящи “ през 2022 година или тъй като фирмите, докладващи за злоупотребата, не са дали задоволително информация, или тъй като изображението в съвета се е популяризирало бързо онлайн и е докладвано прекалено много пъти. Редът със препоръки има алтернатива за инспекция дали наличието в съвета е евентуален мем, само че доста хора не го употребяват.

В един ден по-рано тази година, рекордните един милион известия за материали със полово принуждение над деца наводниха федералната клирингова къща. В продължение на седмици следователите работиха, с цел да отговорят на необичайния скок. Оказа се, че доста от отчетите са свързани с изображение в мем, който хората споделят в разнообразни платформи, с цел да изразят отвращение, а не злонамерени планове. Но въпреки всичко изяде обилни запаси за следствие.

Тази наклонност ще се утежни с ускоряването на генерираното от AI наличие, сподели Алекс Стамос, един от създателите на отчета на Станфорд.

„ Един милион идентични изображения е задоволително мъчно, един милион обособени изображения, основани от ИИ. ще ги счупи “, сподели господин Стамос.

Центърът за изчезнали и експлоатирани деца и неговите реализатори са лимитирани да употребяват снабдители на облачни калкулации и са задължени да съхраняват изображения локално в компютри. Това условие затруднява построяването и потреблението на профилиран хардуер, употребен за основаване и образование на ИИ. модели за своите следствия, откриха откривателите.

Организацията нормално не разполага с технологията, нужна за необятно потребление на програмен продукт за различаване на лица за идентифициране на жертви и извършители. Голяма част от обработката на докладите към момента е ръчна.

Източник: nytimes.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!